开放式对象检测(OSOD)最近引起了广泛的关注。它是在正确检测/分类已知对象的同时检测未知对象。我们首先指出,最近的研究中考虑的OSOD方案,该方案考虑了类似于开放式识别(OSR)的无限种类的未知物体,这是一个基本问题。也就是说,我们无法确定要检测到的内容,而对于这种无限的未知对象,这是检测任务所必需的。这个问题导致了对未知对象检测方法的性能的评估困难。然后,我们介绍了OSOD的新颖方案,该方案仅处理与已知对象共享超级类别的未知对象。它具有许多真实的应用程序,例如检测越来越多的细粒对象。这个新环境摆脱了上述问题和评估困难。此外,由于已知和未知对象之间的视觉相似性,它使检测到未知对象更加现实。我们通过实验结果表明,基于标准检测器类别预测的不确定性的简单方法优于先前设置中测试的当前最新OSOD方法。
translated by 谷歌翻译
图像字幕的当前最新方法采用基于区域的特征,因为它们提供了对象级信息,对于描述图像的内容至关重要;它们通常由对象检测器(例如更快的R-CNN)提取。但是,他们有几个问题,例如缺乏上下文信息,不准确检测的风险以及高计算成本。可以通过使用基于网格的功能来解决前两个。但是,如何提取和融合这两种功能是未知的。本文提出了一种仅使用变压器的神经结构,称为砂砾(基于网格和区域的图像字幕变压器),该构建物有效地利用了两个视觉特征来生成更好的字幕。粒度用基于DITR的方法代替了以前方法中使用的基于CNN的检测器,从而使其更快地计算。此外,它的整体设计仅由变压器组成,可以对模型进行端到端的训练。这种创新的设计和双重视觉功能的集成带来了重大的性能提高。几个图像字幕基准的实验结果表明,砂砾的推论准确性和速度优于先前的方法。
translated by 谷歌翻译
在本文中,我们考虑了Defocus图像去缩合中的问题。以前的经典方法遵循两步方法,即首次散焦映射估计,然后是非盲目脱毛。在深度学习时代,一些研究人员试图解决CNN的这两个问题。但是,代表模糊级别的Defocus图的简单串联导致了次优性能。考虑到Defocus Blur的空间变体特性和Defocus Map中指示的模糊级别,我们采用Defocus Map作为条件指导来调整输入模糊图像而不是简单串联的特征。然后,我们提出了一个基于Defocus图的空间调制的简单但有效的网络。为了实现这一目标,我们设计了一个由三个子网络组成的网络,包括DeFocus Map估计网络,该网络将DeFocus Map编码为条件特征的条件网络以及根据条件功能执行空间动态调制的DeFocus Deblurring网络。此外,空间动态调制基于仿射变换函数,以调整输入模糊图像的特征。实验结果表明,与常用的公共测试数据集中的现有最新方法相比,我们的方法可以实现更好的定量和定性评估性能。
translated by 谷歌翻译
从一组多曝光图像中重建无精神的高动态范围(HDR)图像是一项具有挑战性的任务,尤其是在大型对象运动和闭塞的情况下,使用现有方法导致可见的伪影。为了解决这个问题,我们提出了一个深层网络,该网络试图学习以正规损失为指导的多尺度特征流。它首先提取多尺度功能,然后对非参考图像的特征对齐。对齐后,我们使用残留的通道注意块将不同图像的特征合并。广泛的定性和定量比较表明,我们的方法可实现最新的性能,并在颜色伪像和几何变形大大减少的情况下产生出色的结果。
translated by 谷歌翻译
无监督的域适应性(UDA)仅使用未标记的数据适应一个在一个域上训练的模型。已经进行了许多研究,特别是由于其高注释成本而用于语义分割。现有研究坚持这样的基本假设,即新领域没有标记的样品。但是,这个假设有几个问题。首先,考虑到ML的标准实践,可以在部署前确认该模型的性能,这是非常不现实的。确认需要标记的数据。其次,任何UDA方法都将具有一些超参数,需要一定数量的标记数据。为了纠正现实的错误对准,我们从以数据为中心的角度重新考虑UDA。具体而言,我们从假设我们确实可以访问最低标记数据级别的假设。然后,我们询问需要多少个标记样品来找到现有UDA方法令人满意的超参数。如果我们使用相同的数据来训练模型,例如填充,它的工作原理如何?我们进行实验,以流行的情况为{GTA5,Synthia} $ \ rightarrow $ CityScapes。我们的发现如下:i)对于某些UDA方法,只有几个标记的样品(即图像),例如五个,可以找到良好的超参数,例如五个,但这不适用于其他样品,ii)较高的芬特(ii)均超过了大多数的芬特。现有的UDA方法只有十个标记的图像。
translated by 谷歌翻译
To simulate bosons on a qubit- or qudit-based quantum computer, one has to regularize the theory by truncating infinite-dimensional local Hilbert spaces to finite dimensions. In the search for practical quantum applications, it is important to know how big the truncation errors can be. In general, it is not easy to estimate errors unless we have a good quantum computer. In this paper we show that traditional sampling methods on classical devices, specifically Markov Chain Monte Carlo, can address this issue with a reasonable amount of computational resources available today. As a demonstration, we apply this idea to the scalar field theory on a two-dimensional lattice, with a size that goes beyond what is achievable using exact diagonalization methods. This method can be used to estimate the resources needed for realistic quantum simulations of bosonic theories, and also, to check the validity of the results of the corresponding quantum simulations.
translated by 谷歌翻译
Climate change is becoming one of the greatest challenges to the sustainable development of modern society. Renewable energies with low density greatly complicate the online optimization and control processes, where modern advanced computational technologies, specifically quantum computing, have significant potential to help. In this paper, we discuss applications of quantum computing algorithms toward state-of-the-art smart grid problems. We suggest potential, exponential quantum speedup by the use of the Harrow-Hassidim-Lloyd (HHL) algorithms for sparse matrix inversions in power-flow problems. However, practical implementations of the algorithm are limited by the noise of quantum circuits, the hardness of realizations of quantum random access memories (QRAM), and the depth of the required quantum circuits. We benchmark the hardware and software requirements from the state-of-the-art power-flow algorithms, including QRAM requirements from hybrid phonon-transmon systems, and explicit gate counting used in HHL for explicit realizations. We also develop near-term algorithms of power flow by variational quantum circuits and implement real experiments for 6 qubits with a truncated version of power flows.
translated by 谷歌翻译
在本文中,我们为视觉域提出了一个新的神经体系结构块,该区域称为区域和本地混合(MRL),其目的是有效,有效地混合提供的输入特征。我们将输入特征混合任务分叉为区域和本地规模的混合。为了实现有效的混合,我们利用自我注意力提供的域范围内的接收场,用于局部尺度混合的区域尺度混合和卷积内核。更具体地说,我们提出的方法将与定义区域内的本地特征相关联的区域特征,然后是局部规模的特征,由区域特征增强。实验表明,这种自我注意力和卷积的杂交带来了能力提高,概括(右感应偏见)和效率。在类似的网络设置下,MRL的表现优于其分类,对象检测和细分任务的同等。我们还表明,基于MRL的网络体系结构可实现H&E组织学数据集的最新性能。我们在Kumar,ConSEP和CPM-17数据集中获得了0.843、0.855和0.892的骰子,同时通过合并了MRL框架所提供的多功能性,通过合并诸如小组卷积之类的层来改善数据集特异性通用化。
translated by 谷歌翻译
捍卫深层神经网络免受对抗性示例是AI安全的关键挑战。为了有效地提高鲁棒性,最近的方法集中在对抗训练中的决策边界附近的重要数据点上。但是,这些方法容易受到自动攻击的影响,这是无参数攻击的合奏,可用于可靠评估。在本文中,我们通过实验研究了其脆弱性的原因,发现现有方法会减少真实标签和其他标签的逻辑之间的利润,同时保持其梯度规范非微小值。减少的边缘和非微小梯度规范会导致其脆弱性,因为最大的logit可以轻松地被扰动翻转。我们的实验还表明,logit边缘的直方图具有两个峰,即小和大的logit边缘。从观察结果来看,我们提出了切换单重损失(SOVR),当数据具有较小的logit rumgins时,它会使用单重损失,从而增加边缘。我们发现,SOVR比现有方法增加了logit的利润率,同时使梯度规范保持较小,并且在针对自动攻击的鲁棒性方面超越了它们。
translated by 谷歌翻译
深度神经网络(DNN)如此过度参数化,最近的研究发现它们已经在随机初始化状态下具有高精度的子网。找到这些子网是一种可行的替代培训方法,可以重量学习。并行地,另一行工作已经假设了深度残差网络(Resnet)正在尝试近似浅反复性神经网络(RNN)的行为,并且已经提出了一种将它们压缩成复发模型的方法。本文提出将这些研究融合成高度压缩但准确的模型:隐藏网络(HFN)。通过将reset折叠成反复化结构,然后搜索隐藏在随机初始化模型内的准确子网,获得了高性能的尚未更新的HFN而不更新权重。因此,HFN在CIFAR100上归因于RESET50的等效性能,同时占据38.5倍较少的内存,以及在ImageNet上的类似性能,内存大小为26.8x。当在高度量化和随机加权的DNN推理加速器上运行时保持准确时,HFN将变得更具吸引力。在https://github.com/lopez-angel/hidden-fold-networks提供的代码
translated by 谷歌翻译